A case report on gendered biases in a Finnish healthcare AI assistant
Este estudio revela que un asistente de IA basado en RAG para servicios de bienestar en Finlandia presenta sesgos de género significativos y clínicamente relevantes, donde las variantes femeninas de las consultas provocan respuestas estereotipadas centradas en la crianza y la salud reproductiva, así como errores en la urgencia del tratamiento y el contexto clínico, debido a fallos tanto en la generación como en la recuperación de información.